Родительский контроль: ChatGPT будет определять возраст пользователей
Изображение: ChatGPT / OpenAI
Компания OpenAI анонсировала новую эпоху в своём чат-боте: совсем скоро он научится определять возраст пользователя и включать родительский контроль. Но пока неизвестно, когда функция появится в ChatGPT — алгоритм ещё в разработке.
Нейросеть будет делать выводы на основе переписок. Если ИИ заподозрит, что пользователю меньше 18 лет, то в чате автоматически включатся возрастные ограничения. То есть, в беседе сразу будут заблокированы темы насилия, суицида и секса. Разработчики обещают, что ChatGPT будет непреклонен и «развязать язык» ему не получится — даже если попытаться перевести разговор в художественный контекст.
«Это непросто сделать правильно, и даже самые продвинутые системы иногда не могут определить возраст. Если мы не уверены в возрасте человека или располагаем неполной информацией, мы выбираем более безопасный путь и по умолчанию устанавливаем возраст до 18 лет», — отметили создатели чат-бота на официальном сайте OpenAI.
Мало того, ChatGPT откажется флиртовать — за что многие пользователи особенно любят версию 4о. Если же нейросеть заметит, что ребёнок хочет навредить себе, сразу уведомит полицию и службу спасения. Но сначала чат-бот попытается связаться с родителями.
С помощью функции родительского контроля в ChatGPT взрослые смогут:
- связать свою учётную запись с учётной записью подростка (минимальный возраст 13 лет) — понадобится только приглашение по электронной почте;
- контролировать реакцию ChatGPT на поведение подростка;
- управлять отключением функций, включая память и историю чата;
- получать уведомления, когда система обнаруживает, что подросток находится в состоянии острого стресса;
- настроить часы отключения, когда подросток не может использовать ChatGPT.
По словам главы OpenAI Сэма Альтмана, снять родительские ограничения с аккаунта будет можно, только подтвердив свою личность: то есть, предоставив сервису скан паспорта. Ввести эти меры в ChatGPT разработчики планируют до конца сентября 2025 года.
В августе 2025 года на компанию OpenAl подали в суд родители 16-летнего Адама Рейна из Калифорнии. Семья сообщила, что GPT-4o помог их сыну спланировать уход из жизни. Мало того: всячески поддерживал, так как в его настройках прописано быть крайне дружелюбным.